最近,人们对基于变压器的模型产生有意义的文本嵌入的能力越来越兴趣,例如文本相似性。尽管该领域取得了重大进展,但相似性预测的解释仍然具有挑战性,尤其是在无监督的环境中。在这项工作中,我们提出了一种无监督的技术,用于解释预先训练的BERT模型推断出的段落相似性。通过查看一对段落,我们的技术确定了决定每个段落的语义的重要单词,在这两个段落中的单词之间匹配,并检索解释两者之间相似性的最重要对。该方法已通过广泛的人类评估进行了评估,并在包含长期复杂段落的数据集中证明了这一方法,已显示出巨大的希望,提供了与人类看法更好相关的准确解释。
translated by 谷歌翻译
我们提出了Metricbert,这是一个基于BERT的模型,该模型学会了以明确的相似性度量嵌入文本,同时遵守``传统''蒙面语言任务。我们专注于学习相似之处的下游任务,以表明公制表现优于最先进的替代方案,有时要大幅度。我们对我们的方法及其不同的变体进行了广泛的评估,这表明我们的训练目标对传统的对比损失,标准余弦相似性目标和其他六个基线非常有益。作为另一个贡献,我们发布了视频游戏描述的数据集,以及由域专家制作的一系列相似性注释。
translated by 谷歌翻译
远程变压器模型取得了令人鼓舞的令人鼓舞的结果,即长上下文问题应答(QA)任务。这些任务通常需要超过一个长文件的推理,并且他们受益于识别一组证据跨度(例如,句子),为解决问题提供支持证据。在这项工作中,我们提出了一种用于装备远程变压器的新方法,其具有额外的序列级目标,以便更好地识别支持证据跨度。我们通过提出FineTuning的额外对比监督信号来实现这一目标,鼓励模型通过最大化问题证据相似性来明确歧视来自消极的证据句。拟议的额外损失表现出三种不同强大的长情绪变压器模型的一致改进,跨两个具有挑战性的问题回答基准 - 热杆菌和Qasper。
translated by 谷歌翻译
传统上,文本聚类方法包含在多文件摘要(MDS)中作为一种用于应对相当大的信息重复的手段。集群被利用以表明信息显着性并避免冗余。这些方法集中在聚类句子上,即使密切相关的句子也通常包含非对齐信息。在这项工作中,我们重新审视聚类方法,将命题分组为更精确的信息对齐。具体而言,我们的方法检测到突出的命题,将它们聚集到释义集群中,并通过融合其命题来为每个集群生成代表性句子。我们的摘要方法在自动胭脂评分和人类偏好中,通过了在DUC 2004和TAC 2011数据集中的先前最先进的MDS方法。
translated by 谷歌翻译
大多数自然语言具有主要或固定的单词秩序。例如,英文中的单词顺序通常是主题动词对象。这项工作试图解释这种现象以及与功能视角的单词秩序的其他类型学发现。特别是,我们检查固定字订单是否提供功能优势,解释这些语言普遍的原因。为此,我们考虑一种语言的进化模型,在理论上和使用遗传算法中的演示,具有固定字阶的语言是最佳的。我们还表明,根据类型的发现,向句子添加信息,例如案例标记和名词 - 动词区别,减少了对固定字令的需求。
translated by 谷歌翻译
Business processes that involve AI-powered automation have been gaining importance and market share in recent years. These business processes combine the characteristics of classical business process management, goal-driven chatbots, conversational recommendation systems, and robotic process automation. In the new context, prescriptive process monitoring demands innovative approaches. Unfortunately, data logs from these new processes are still not available in the public domain. We describe the main challenges in this new domain and introduce a synthesized dataset that is based on an actual use case of intelligent process automation with chatbot orchestration. Using this dataset, we demonstrate crowd-wisdom and goal-driven approaches to prescriptive process monitoring.
translated by 谷歌翻译
We present a new pre-trained language model (PLM) for modern Hebrew, termed AlephBERTGimmel, which employs a much larger vocabulary (128K items) than standard Hebrew PLMs before. We perform a contrastive analysis of this model against all previous Hebrew PLMs (mBERT, heBERT, AlephBERT) and assess the effects of larger vocabularies on task performance. Our experiments show that larger vocabularies lead to fewer splits, and that reducing splits is better for model performance, across different tasks. All in all this new model achieves new SOTA on all available Hebrew benchmarks, including Morphological Segmentation, POS Tagging, Full Morphological Analysis, NER, and Sentiment Analysis. Subsequently we advocate for PLMs that are larger not only in terms of number of layers or training data, but also in terms of their vocabulary. We release the new model publicly for unrestricted use.
translated by 谷歌翻译
随着人们对精神危机及其社会影响的认识,在许多国家,提供紧急支持的在线服务变得司空见惯。接受寻求帮助者和提供者之间讨论的培训的计算模型可以通过识别高危个人来支持预防自杀。但是,缺乏特定领域的模型,尤其是在低资源语言中,对自动检测自杀风险构成了重大挑战。我们提出了一个模型,该模型将预训练的语言模型(PLM)与固定的一组手动制作(并经过临床批准)的自杀提示相结合,然后进行了两阶段的微调过程。我们的模型达到了0.91 ROC-AUC和0.55的F2分数,甚至在对话的早期就表现出了一系列强大的基线,这对于该领域的实时检测至关重要。此外,该模型在性别和年龄段之间表现良好。
translated by 谷歌翻译
物联网系统中的微型机器学习(Tinyml)利用MCU作为数据处理的边缘设备。但是,传统的Tinyml方法只能执行推理,仅限于静态环境或类。真实情况通常在动态环境中起作用,从而将原始神经模型不再合适的上下文漂移。因此,预训练的模型降低了其一生中的准确性和可靠性,因为记录的数据缓慢变为过时或出现新模式。连续学习策略通过对参数进行运行时进行微调维护模型。本文比较了两个实际应用中的四种最新算法:i)基于加速度计数据的手势识别和ii)图像分类。我们的结果证实了这些系统的可靠性以及将它们部署到微小的MCUS中的可行性,相对于无约束计算平台的原始模型的精确度下降了几个百分点。
translated by 谷歌翻译
我们为拉比希伯来语提出了一种新的预训练的语言模型(PLM),称为Berel(Bert bert嵌入了拉比编码的语言)。尽管存在其他PLM用于处理希伯来文本(例如Hebert,Alephbert),但它们都接受了现代希伯来语文本的培训,该文本在其词典,形态学,义学和正学规范方面与犹太人希伯来语有很大的不同。我们通过一组希伯来语同源物来证明贝雷尔在拉比文本上的优越性。我们发布了无限制使用的新模型和同型挑战。
translated by 谷歌翻译